首页> 外文OA文献 >Improving Slot Filling Performance with Attentive Neural Networks on Dependency Structures
【2h】

Improving Slot Filling Performance with Attentive Neural Networks on Dependency Structures

机译:用maTLaB提高基于神经网络的槽填充性能   依赖结构

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Slot Filling (SF) aims to extract the values of certain types of attributes(or slots, such as person:cities\_of\_residence) for a given entity from alarge collection of source documents. In this paper we propose an effective DNNarchitecture for SF with the following new strategies: (1). Take a regularizeddependency graph instead of a raw sentence as input to DNN, to compress thewide contexts between query and candidate filler; (2). Incorporate twoattention mechanisms: local attention learned from query and candidate filler,and global attention learned from external knowledge bases, to guide the modelto better select indicative contexts to determine slot type. Experiments showthat this framework outperforms state-of-the-art on both relation extraction(16\% absolute F-score gain) and slot filling validation for each individualsystem (up to 8.5\% absolute F-score gain).
机译:插槽填充(SF)的目的是从大量源文档中为给定实体提取某些类型的属性(或插槽,例如person:cities \ _of \ _residence)的值。在本文中,我们提出了一种有效的SF DNN体系结构,其中包括以下新策略:(1)。以正则化的依赖图代替原始语句作为DNN的输入,以压缩查询和候选填充符之间的广泛上下文; (2)。结合两种注意机制:从查询和候选填充符中学习到的本地注意力,以及从外部知识库中学习到的全局注意力,以指导模型更好地选择指示性上下文来确定广告位类型。实验表明,该框架在每个单独系统的关系提取(16%绝对F分数增益)和插槽填充验证(最高8.5%绝对F分数增益)方面均优于最新技术。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号